home *** CD-ROM | disk | FTP | other *** search
/ HPAVC / HPAVC CD-ROM.iso / SNNSV32.ZIP / SNNSv3.2 / examples / art1_letters.README < prev    next >
Text File  |  1994-04-25  |  4KB  |  103 lines

  1. =============================================================================
  2.     README file for the example files    art1_letters.xxx
  3. =============================================================================
  4.  
  5.  
  6. Description:    ART1 letters network
  7. ============
  8.  
  9. The ART1 letters network shows the self-organized classification of
  10. input patterns by an ART1 network. The input patterns are identical
  11. with the patterns of the 'letters' pattern file, except that they
  12. consist only of input patterns. The input is a 5x7 binary input
  13. matrix, each input representing a different captial letter of the
  14. alphabet. Each input pattern exists only once, there is no noise in
  15. the input.
  16. The ART1 network as implemented in SNNS differs from the standard ART1
  17. network in that it tries to implement the functionality of the reset
  18. box not algorithmically, but in the form of additional reset neurons:
  19.   The leftmost 5x7 layer is the input layer,
  20.   the next 5x7 layer is the comparison layer (F1 layer)
  21.   the next 5x7 layer ist the recognition layer (F2 layer)
  22.   the remaining two layers (delay layer and reset layer) and the delay
  23.   units d1, ... d3 on top are needed for proper synchronization of the
  24.   reset component.
  25. See the SNNS user manual for a more detailed description of the ART1
  26. implementation in SNNS.
  27.  
  28.  
  29. Pattern-Files:    art1_letters.pat
  30. ==============
  31.  
  32. The pattern-file letters.pat contains 26 binary input patterns with values
  33. of 0 and 1 representing capital letters in a 5x7 input matrix.
  34.  
  35.  
  36. Network-Files:    art1_letters.net
  37. ==============
  38.  
  39. This network file contains a trained ART1 network for the letter
  40. classification task described above. The standard configuration file
  41. for this network is letters.cfg (one 2D display only).
  42.  
  43. You may generate your own ART1 network with the BIGNET tool from the
  44. Info-Panel of SNNS. This automatically generates all units and the
  45. necessary connections.
  46.  
  47. Because the unit types and link structure are highly specialized in
  48. ART1 we strongly urge you only to use this tool to generate ART1
  49. networks in SNNS.
  50.  
  51.  
  52. Config-Files:    art1_letters.cfg    (one 2D display only)
  53. =============    art1_letters3D.cfg    (one 2D display, one 3D display)
  54.  
  55. The drawing of the 3D display is relatively slow for this network, so
  56. you probably want to work only with the 2D display once you know how
  57. the units are connected.
  58. The 3D display is a nice example for a moderately complicated 3D
  59. network layout of a non-homogeneous network.
  60.  
  61.  
  62. Result-Files:    (none)
  63. =============
  64.  
  65.  
  66. Hints:
  67. ======
  68.  
  69. Read the chapter about ART1 in the SNNS manual very carefully!
  70.  
  71. Note that ART1 needs a special network initialization function 
  72.     (REMOTE panel: OPTIONS select init function: ART1_Weights).
  73. Note that there exist two different ART1 update functions: 
  74.     (REMOTE panel: OPTIONS select update function: ART1_Synchronous
  75.                         or     ART1_Stable)
  76. Note that ART1 needs a special learning function:
  77.     (REMOTE panel: OPTIONS select learning function: ART1)
  78. These should already be set when loading the example ART1 network.
  79.  
  80. Use a high vigilance parameter $\rho$ (e.g. $\rho$ = 0.9 or 0.95),
  81. otherwise all examples will be grouped into only a few classes. The
  82. small value in the figure 'Setting the ART1 learning parameter $\rho$
  83. in the SNNS manual is misleading.
  84.  
  85. Note that several input patterns are proper subsets of other
  86. patterns. It is interesting to watch how the 'smaller' pattern erodes
  87. the bitmap of the larger pattern until the former is no longer similar
  88. to the smaller pattern and is assigned a different neuron.
  89.  
  90. The assignment of input patterns to recognition layer neurons appears
  91. counterintuitive at a first glance but can be explained by the above
  92. erosion effect.
  93.  
  94. There exists additional documentation in form of the diploma
  95. thesis of Kai-Uwe Herrmann (in German), available via anon. ftp
  96. from our public ftp server ftp.informatik.uni-stuttgart.de under
  97. /pub/SNNS/NN-papers-german/herrmann_kaiuwe_DA.ps.Z
  98.  
  99.  
  100. =============================================================================
  101.     End of README file
  102. =============================================================================
  103.